Reino Unido y Microsoft crearán sistema contra deepfakes

El gobierno del Reino Unido anunció una alianza con Microsoft, universidades y expertos para desarrollar un sistema que identifique los deepfakes en internet. Esta iniciativa es parte de su estrategia para establecer estándares que ayuden a combatir la creciente cantidad de materiales engañosos y potencialmente perjudiciales generados por inteligencia artificial (IA).

Desde hace un tiempo, el contenido manipulado ha estado presente en la web. Sin embargo, con el avance de las IA generativas, sobre todo desde la llegada de ChatGPT en 2022, las preocupaciones por el impacto y el realismo de los deepfakes han crecido exponencialmente.

Colaboración para detectar deepfakes

En este escenario, el primer ministro Keir Starmer confirmó que su gobierno trabaja en un marco de evaluación que establecerá criterios uniformes para analizar la efectividad de las herramientas de detección. De hecho, recientemente también se convirtió en delito crear imágenes íntimas sin consentimiento.

La ministra de Tecnología, Liz Kendall, destacó la gravedad del problema: “Los deepfakes se están usando como arma por delincuentes para engañar al público, abusar de mujeres y niñas, y socavar la confianza en lo que vemos y escuchamos”.

Las autoridades británicas detallaron que este esquema buscará aplicar tecnología para evaluar, entender e identificar contenido engañoso, sin importar de dónde provenga. Se probarán diferentes sistemas de detección en escenarios reales, enfrentando amenazas como el fraude, la suplantación de identidad y el abuso sexual.

El gobierno espera que esta metodología permita detectar brechas en los mecanismos de identificación y establecer expectativas claras para la industria respecto a los estándares que estas soluciones deben cumplir. Las cifras hablan por sí solas: se estima que en 2025 se habrán compartido unos 8 millones de deepfakes, un salto abismal desde los 500.000 registrados en 2023.

Además, este avance se da en un contexto internacional donde los reguladores luchan por adaptarse a la rápida evolución de la IA. Este año, la urgencia aumentó tras la revelación de que la IA de Elon Musk, llamada Grok, generaba imágenes sexualizadas no consentidas de personas, incluidos menores.

¿Qué son los deepfakes?

Los deepfakes son contenidos de video, imagen o audio alterados mediante software de inteligencia artificial para que parezcan originales y auténticos. En general, este tipo de contenido busca suplantar la identidad de alguien, propagando discursos o videos falsos.

La palabra “deepfake” surge de la combinación de “fake” (falso) y “deep”, en referencia al deep learning. Esta técnica permite a los sistemas analizar grandes volúmenes de datos y replicar patrones con alta precisión.

Aunque esta tecnología comenzó a desarrollarse a fines de los años 90, su notoriedad creció en 2017. En los últimos años, especialmente después de la aparición de ChatGPT, estas herramientas se han perfeccionado, ofreciendo a los usuarios la capacidad de crear contenido realista sobre figuras públicas.

El alto nivel de realismo de estos archivos se debe a la sofisticación de los programas que los generan, que imitan redes neuronales y procesos del cerebro humano. Esto aumenta la probabilidad de que los usuarios perciban el contenido como verdadero, llevándolos a interpretar erróneamente la información.

Botão Voltar ao topo